ICLR 2026|早于DeepSeek Engram,STEM已重构Transformer「记忆」 ICLR 2026|早于DeepSeek Engram,STEM已重构Transformer「记忆」 关键词: AI框架,模型训练,STEM,DeepSeek Engram 近年来,随着大语言模型规模与知识密度不断提升,研究者开始重新思考一个更本质的问题:模型中的参数应如何被组织,才能更高效地充当「记忆」。 来自主题: AI技术研报 7606 点击 2026-03-10 09:31